18 research outputs found

    Predicting SPARQL Query Performance

    Get PDF
    International audienceWe address the problem of predicting SPARQL query performance. We use machine learning techniques to learn SPARQL query performance from previously executed queries. We show how to model SPARQL queries as feature vectors, and use k -nearest neighbors regression and Support Vector Machine with the nu-SVR kernel to accurately (R^2 value of 0.98526) predict SPARQL query execution time

    Predicting SPARQL Query Execution Time and Suggesting SPARQL Queries Based on Query History

    Get PDF
    In this paper first we address the problem of predicting SPARQL query execution time. Accurately predicting query execution time enables effective workload management, query scheduling, and query optimization. We use machine learning techniques to predict SPARQL query execution time. We generate the training dataset from real queries collected from DBPedia 3.8 query logs. As features of a SPARQL query, we use the SPARQL query algebra operators and different basic graph pattern types that we generate by clustering the training SPARQL queries. We achieved high accuracy (coefficient of determination value of 0.84) for predicting query execution time. Second, we address the problem of suggesting similar SPARQL queries based on query history. Users often need assistance to effectively construct and refine Semantic Web queries. To assist users in constructing and refining SPARQL queries, we provide suggestions of similar queries based on query history. Users can use the suggestions to investigate the similar previous queries and their behaviors.Dans ce rapport, nous examinons tout d'abord le problème de la prédiction du temps d'exécution des requêtes SPARQL. Prédire avec précision le temps d'exécution des requêtes permet une gestion efficace de la charge de travail, la planification et l'optimisation des requêtes. Nous utilisons des techniques d'apprentissage automatique pour prédire le temps d'exécution des requêtes SPARQL. Nous générons l'ensemble de données d'apprentissage à partir de requêtes réelles recueillies dans les logs de DBPedia 3.8. Comme caractéristiques d'une requête SPARQL, nous utilisons les opérateurs de l'algèbre de requêtes SPARQL et les différents types de motifs de graphes requêtes que nous générons par le regroupement des requêtes SPARQL d'apprentissage. Nous obtenons une précision élevée (coefficient de valeur de détermination de 0,84) pour prédire le temps d'exécution des requêtes. Deuxièmement, les utilisateurs ont souvent besoin d'aide pour construire efficacement et d'affiner les requêtes au Web sémantique. Pour aider les utilisateurs à construire et affiner les requêtes SPARQL, nous fournissons des suggestions de requêtes similaires basées sur l'historique des requêtes. Les utilisateurs peuvent utiliser ces suggestions pour étudier les précédentes requêtes similaires et leurs comportements

    Predicting SPARQL Query Execution Time and Suggesting SPARQL Queries Based on Query History

    Get PDF
    In this paper first we address the problem of predicting SPARQL query execution time. Accurately predicting query execution time enables effective workload management, query scheduling, and query optimization. We use machine learning techniques to predict SPARQL query execution time. We generate the training dataset from real queries collected from DBPedia 3.8 query logs. As features of a SPARQL query, we use the SPARQL query algebra operators and different basic graph pattern types that we generate by clustering the training SPARQL queries. We achieved high accuracy (coefficient of determination value of 0.84) for predicting query execution time. Second, we address the problem of suggesting similar SPARQL queries based on query history. Users often need assistance to effectively construct and refine Semantic Web queries. To assist users in constructing and refining SPARQL queries, we provide suggestions of similar queries based on query history. Users can use the suggestions to investigate the similar previous queries and their behaviors.Dans ce rapport, nous examinons tout d'abord le problème de la prédiction du temps d'exécution des requêtes SPARQL. Prédire avec précision le temps d'exécution des requêtes permet une gestion efficace de la charge de travail, la planification et l'optimisation des requêtes. Nous utilisons des techniques d'apprentissage automatique pour prédire le temps d'exécution des requêtes SPARQL. Nous générons l'ensemble de données d'apprentissage à partir de requêtes réelles recueillies dans les logs de DBPedia 3.8. Comme caractéristiques d'une requête SPARQL, nous utilisons les opérateurs de l'algèbre de requêtes SPARQL et les différents types de motifs de graphes requêtes que nous générons par le regroupement des requêtes SPARQL d'apprentissage. Nous obtenons une précision élevée (coefficient de valeur de détermination de 0,84) pour prédire le temps d'exécution des requêtes. Deuxièmement, les utilisateurs ont souvent besoin d'aide pour construire efficacement et d'affiner les requêtes au Web sémantique. Pour aider les utilisateurs à construire et affiner les requêtes SPARQL, nous fournissons des suggestions de requêtes similaires basées sur l'historique des requêtes. Les utilisateurs peuvent utiliser ces suggestions pour étudier les précédentes requêtes similaires et leurs comportements

    Explanation in the Semantic Web: a survey of the state of the art

    Get PDF
    Semantic Web applications use interconnected distributed data and inferential capabilities to compute their results. The users of Semantic Web applications might find it difficult to understand how a result is produced or how a new piece of information is derived in the process. Explanation enables users to understand the process of obtaining results. Explanation adds transparency to the process of obtaining results and enables user trust on the process. The concept of providing explanation has been first introduced in expert systems and later studied in different application areas. This paper provides a brief review of existing research on explanation in the Semantic Web

    Linking Justifications in the Collaborative Semantic Web Applications

    Get PDF
    International audienceCollaborative Semantic Web applications produce ever changing interlinked Semantic Web data. Applications that utilize these data to obtain their results should provide explanations about how the results are obtained in order to ensure the effectiveness and increase the user acceptance of these applications. Justifications providing meta information about why a conclusion has been reached enable generation of such explanations. We present an encoding approach for justifications in a distributed environment focusing on the collaborative platforms. We discuss the usefulness of linking justifications across the Web. We introduce a vocabulary for encoding justifications in a distributed environment and provide examples of our encoding approach

    Summarized Explanations from Linked Justifications

    Get PDF
    A user of a Semantic Web application may not trust its results because he may not understand how the application produces its results using distributed data and inferential capabilities. Explanation-aware Semantic Web applications provide explanations of their reasoning - explaining why an application has performed a given step or which information it has used to derive a new piece of information. However, providing too much and irrelevant information in explanations may overwhelm the users, especially the non-expert users. In this paper, we discuss an approach to explain reasoning over Linked Data. We introduce a vocabulary to describe justifications and we discuss how publishing justifications as Linked Data enables explaining reasoning over Linked Data. Finally, we discuss how to summarize explanations with relevant information taking into account user specified explanation filtering criterion.Un utilisateur d'une application Web sémantique peut ne pas faire confiance à ses résultats, car il peut ne pas comprendre comment l'application produit ses résultats à l'aide de ses capacités inférentielles et de données distribuées. Les applications Web sémantique sensibles aux explication fournissent des explications de leurs raisonnements - pour expliquer pourquoi une étape a été effectué ou quelles informations ont été utilisées pour cette étape. Cependant, fournir trop d'informations parfois non pertinentes dans les explications peut submerger les utilisateurs, en particulier ceux non-experts. Dans cet article, nous discutons d'une approche pour expliquer le raisonnement sur ​​le web des données liées. Nous introduisons un vocabulaire pour décrire les justifications et nous montrons comment publier des justifications en tant que données liées pour expliquer les raisonnements sur le web des données liées. Enfin, nous discutons de la façon de résumer les explications par des information pertinente en fonction des critères de filtre d'explication spécifiés par l'utilisateur

    A Machine Learning Approach to SPARQL Query Performance Prediction

    Get PDF
    International audienceIn this paper we address the problem of predicting SPARQL query performance. We use machine learning techniques to learn SPARQL query performance from previously executed queries. Traditional approaches for estimating SPARQL query cost are based on statistics about the underlying data. However, in many use-cases involving querying Linked Data, statistics about the underlying data are often missing. Our approach does not require any statistics about the underlying RDF data, which makes it ideal for the Linked Data scenario. We show how to model SPARQL queries as feature vectors, and use k-nearest neighbors regression and Support Vector Machine with the nu-SVR kernel to accurately predict SPARQL query execution time

    SPARQL Query Result Explanation for Linked Data

    Get PDF
    International audienceIn this paper, we present an approach to explain SPARQL query results for Linked Data using why-provenance. We present a non-annotation-based algorithm to generate why-provenance and show its feasibility for Linked Data. We present an explanation-aware federated query processor prototype and show the presentation of our explanations. We present a user study to evaluate the impacts of our explanations. Our study shows that our query result explanations are helpful for end users to understand the result derivations and make trust judgments on the results

    A Learning Based Framework for Improving Querying on Web Interfaces of Curated Knowledge Bases

    Get PDF
    Knowledge Bases (KBs) are widely used as one of the fundamental components in Semantic Web applications as they provide facts and relationships that can be automatically understood by machines. Curated knowledge bases usually use Resource Description Framework (RDF) as the data representation model. To query the RDF-presented knowledge in curated KBs, Web interfaces are built via SPARQL Endpoints. Currently, querying SPARQL Endpoints has problems like network instability and latency, which affect the query efficiency. To address these issues, we propose a client-side caching framework, SPARQL Endpoint Caching Framework (SECF), aiming at accelerating the overall querying speed over SPARQL Endpoints. SECF identifies the potential issued queries by leveraging the querying patterns learned from clients’ historical queries and prefecthes/caches these queries. In particular, we develop a distance function based on graph edit distance to measure the similarity of SPARQL queries. We propose a feature modelling method to transform SPARQL queries to vector representation that are fed into machine-learning algorithms. A time-aware smoothing-based method, Modified Simple Exponential Smoothing (MSES), is developed for cache replacement. Extensive experiments performed on real-world queries showcase the effectiveness of our approach, which outperforms the state-of-the-art work in terms of the overall querying speed

    Predicting query performance and explaining results to assist Linked Data consumption

    No full text
    Prédire les performances des requêtes et expliquer les résultats pour assister la consommation de données liées. Notre objectif est d'aider les utilisateurs à comprendre les performances d'interrogation SPARQL, les résultats de la requête, et dérivations sur les données liées. Pour aider les utilisateurs à comprendre les performances des requêtes, nous fournissons des prévisions de performances des requêtes sur la base de d’historique de requêtes et d'apprentissage symbolique. Nous n'utilisons pas de statistiques sur les données sous-jacentes à nos prévisions. Ce qui rend notre approche appropriée au Linked Data où les statistiques sont souvent absentes. Pour aider les utilisateurs des résultats de la requête dans leur compréhension, nous fournissons des explications de provenance. Nous présentons une approche sans annotation pour expliquer le “pourquoi” des résultats de la requête. Notre approche ne nécessite pas de reconception du processeur de requêtes, du modèle de données, ou du langage de requête. Nous utilisons SPARQL 1.1 pour générer la provenance en interrogeant les données, ce qui rend notre approche appropriée pour les données liées. Nous présentons également une étude sur les utilisateurs montrant l'impact des explications. Enfin, pour aider les utilisateurs à comprendre les dérivations sur les données liées, nous introduisons le concept d’explications liées. Nous publions les métadonnées d’explication comme des données liées. Cela permet d'expliquer les résultats en suivant les liens des données utilisées dans le calcul et les liens des explications. Nous présentons une extension de l'ontologie PROV W3C pour décrire les métadonnées d’explication. Nous présentons également une approche pour résumer ces explications et aider les utilisateurs à filtrer les explications.Our goal is to assist users in understanding SPARQL query performance, query results, and derivations on Linked Data. To help users in understanding query performance, we provide query performance predictions based on the query execution history. We present a machine learning approach to predict query performances. We do not use statistics about the underlying data for our predictions. This makes our approach suitable for the Linked Data scenario where statistics about the underlying data is often missing such as when the data is controlled by external parties. To help users in understanding query results, we provide provenance-based query result explanations. We present a non-annotation-based approach to generate why-provenance for SPARQL query results. Our approach does not require any re-engineering of the query processor, the data model, or the query language. We use the existing SPARQL 1.1 constructs to generate provenance by querying the data. This makes our approach suitable for Linked Data. We also present a user study to examine the impact of query result explanations. Finally to help users in understanding derivations on Linked Data, we introduce the concept of Linked Explanations. We publish explanation metadata as Linked Data. This allows explaining derived data in Linked Data by following the links of the data used in the derivation and the links of their explanation metadata. We present an extension of the W3C PROV ontology to describe explanation metadata. We also present an approach to summarize these explanations to help users filter information in the explanation, and have an understanding of what important information was used in the derivation
    corecore